Με AI αναζητούν τον έρωτα και τη φιλία τα έφηβα αγόρια - Τρομακτικά αποτελέσματα έρευνας σε σχολεία
«Κορίτσια που δεν λένε όχι» και AI «ψυχολόγοι» που τα παιδιά ξεχνούν ότι πρόκειται για ψεύτικα πρόσωπα, οδηγούν σε επικίνδυνα μονοπάτια.
Φιλία, ψυχολογική υποστήριξη, συντροφικότητα ακόμη και ερωτική επαφή φαίνεται ότι αναζητούν τα έφηβα αγόρια στην τεχνητή νοημοσύνη, σύμφωνα με έρευνα που πραγματοποιήθηκε σε σχολεία της Βρετανίας.
Η έρευνα, με δείγμα αγόρια από γυμνάσια και λύκεια της χώρας, διαπίστωσε ότι πάνω από το 1/3 σκέφτεται την ιδέα να έχει επαφή με έναν AI φίλο, ενώ την ίδια στιγμή η ανησυχία για την άνοδο των «θεραπευτών» εντείνεται.
Τα αποτελέσματα της έρευνας, που φέρνει στο φως ο Guardian, έρχονται καθώς η character.ai, η δημοφιλής νεοσύστατη εταιρεία chatbot τεχνητής νοημοσύνης, ανακοίνωσε πλήρη απαγόρευση στους εφήβους να συμμετέχουν σε ανοιχτές συζητήσεις με τα δικά της AI chatbots. Πρόκειται για εργαλεία που εκατομμύρια άνθρωποι πλέον χρησιμοποιούν για ρομαντικές, θεραπευτικές και άλλες συζητήσεις.
«Αυτό με καταλαβαίνει, οι γονείς μου όχι»
«Έχουμε μια κατάσταση όπου πολλοί γονείς εξακολουθούν να πιστεύουν ότι οι έφηβοι χρησιμοποιούν την τεχνητή νοημοσύνη απλώς για να κάνουν τις σχολικές τους εργασίες», δήλωσε ο Lee Chambers, ιδρυτής και διευθύνων σύμβουλος της Male Allies UΚ, του οργανισμού που διεξήγαγε την έρευνα.
Αντίθετα, όπως είπε, «οι νέοι την χρησιμοποιούν πολύ περισσότερο σαν βοηθό στην τσέπη τους, σαν θεραπευτή όταν δυσκολεύονται, σύντροφο όταν θέλουν να κερδίσουν επιβεβαίωση και μερικές φορές ακόμη και με ρομαντικό τρόπο. Είναι αυτή η πτυχή της εξατομίκευσης. Λένε: με καταλαβαίνει, οι γονείς μου όχι», σημείωσε ο Chambers.
Η έρευνα διαπίστωσε επίσης ότι περισσότεροι από τους μισούς εφήβους (το 53%), δήλωσαν ότι βρήκαν τον διαδικτυακό κόσμο πιο ικανοποιητικό από τον πραγματικό κόσμο.
«Ξεχνάς ότι πρόκειται για μη πραγματικό πρόσωπο»
«Υπάρχει ένα ‘βουνό’ από στοιχεία που δείχνουν ότι τα chatbot λένε ψέματα συστηματικά για το ότι είναι αδειούχοι θεραπευτές ή πραγματικά πρόσωπα, με μόνο μια μικρή αποποίηση ευθύνης στο κάτω μέρος που λέει ότι το chatbot τεχνητής νοημοσύνης δεν είναι πραγματικό», τονίζει η έκθεση Voice of the Boys.
«Αυτό μπορούν εύκολα να το παραβλέψουν ή να το ξεχάσουν τα παιδιά που ανοίγουν την καρδιά τους σε αυτό που θεωρούν αδειούχο επαγγελματία ή κάποιον που εκφράζει πραγματικό ερωτικό ενδιαφέρον», υποστηρίζει ο Chambers.
Στη διάρκεια της έρευνας, ορισμένα αγόρια ανέφεραν ότι έμεναν ξύπνια μέχρι τις πρώτες πρωινές ώρες για να μιλήσουν με ρομπότ τεχνητής νοημοσύνης, ενώ άλλα δήλωσαν ότι είχαν δει τις προσωπικότητες των φίλων τους να αλλάζουν εντελώς αφότου απορροφήθηκαν από τον κόσμο της τεχνητής νοημοσύνης.
«Οι σύντροφοι της τεχνητής νοημοσύνης προσαρμόζονται στον χρήστη με βάση τις απαντήσεις και τις προτροπές του. Ανταποκρίνονται άμεσα. Οι πραγματικοί άνθρωποι δεν μπορούν πάντα να το κάνουν αυτό», τόνισε ο Chambers, υπενθυμίζοντας ότι στόχος ενός εργαλείου τεχνητής νοημοσύνης είναι να παρατείνει συνεχώς την επικοινωνία του μαζί σου.
Τα τραγικά περιστατικά και η απαγόρευση
Η ανακοίνωση της character.ai ήρθε μετά από περιστατικά που σημειώθηκαν με εφήβους και τα οποία συνδέθηκαν με τα προϊόντα τεχνητής νοημοσύνης της εταιρείας. Καταλυτικό ρόλο διαδραμάτισε η σοκαριστική αυτοκτονία μίας 14χρονης στη Φλόριντα, η οποία φέρεται να είχε αποκτήσει εμμονή με ένα AI chatbot. Η μητέρα της κοπέλας ισχυρίστηκε ότι το εργαλείο αυτό είχε χειραγωγήσει την κόρη της, οδηγώντας την τελικά να κάνει κακό στον εαυτό της.
Μια άλλη οικογένεια στις ΗΠΑ έκανε αγωγή στην εταιρεία, ισχυριζόμενη ότι ένα chatbot χειραγώγησε τον έφηβο γιο της ώστε να αυτοτραυματιστεί, ενώ τον ενθάρρυνε να δολοφονήσει τους γονείς του.
Από την πλευρά της, η Character.ai δήλωσε ότι λαμβάνει «έκτακτα μέτρα» υπό το φως του «εξελισσόμενου τοπίου γύρω από την τεχνητή νοημοσύνη και τους εφήβους».
Ο Andy Burrows, διευθύνων σύμβουλος του Ιδρύματος Molly Rose, που πήρε το όνομά του από την 14χρονη Molly Russell, η οποία αυτοκτόνησε αφού έπεσε σε μια δίνη απελπισίας στα social media, χαιρέτισε την κίνηση.
«Η character.ai δεν θα έπρεπε ποτέ να είχε διαθέσει το προϊόν της σε παιδιά μέχρι αυτό να ήταν ασφαλές και κατάλληλο να το χρησιμοποιήσουν. Για άλλη μια φορά, χρειάστηκε συνεχής πίεση από τα μέσα ενημέρωσης και τους πολιτικούς για να αναγκαστεί μια εταιρεία τεχνολογίας να κάνει το σωστό», υπογράμμισε.
ΑI ψυχολόγοι και «κορίτσια που δεν λένε όχι»
Η Male Allies UK εξέφρασε ανησυχία για τον πολλαπλασιασμό των chatbot με «θεραπεία» ή «θεραπευτή» στα ονόματά τους. Ένα από τα πιο δημοφιλή chatbot που διατίθενται μέσω της character.ai, που ονομάζεται «Psychologist», έλαβε 78 εκατομμύρια μηνύματα μέσα σε ένα χρόνο από τη δημιουργία του.
Ο οργανισμός ανησυχεί επίσης για την άνοδο των «φίλων» που είναι «φτιαγμένοι» με τεχνητή νοημοσύνη, με τους χρήστες να μπορούν να επιλέγουν προσωπικά τα πάντα, από την εμφάνιση μέχρι τη συμπεριφορά των διαδικτυακών τους συντρόφων.
«Εάν η κύρια ή μοναδική πηγή επικοινωνίας ενός έφηβου αγοριού με ένα κορίτσι που τους ενδιαφέρει, είναι κάποια που δεν μπορεί να τους πει «όχι» και που κρατάει κάθε τους λέξη, τα αγόρια δεν μαθαίνουν υγιείς ή ρεαλιστικούς τρόπους να σχετίζονται με τους άλλους», αναφέρει η έκθεση.
«Με ζητήματα που αφορούν την έλλειψη φυσικών χώρων για να συναναστρέφονται με τους συνομηλίκους τους, οι σύντροφοι της τεχνητής νοημοσύνης μπορούν να έχουν σοβαρά αρνητική επίδραση στην ικανότητα των αγοριών να κοινωνικοποιούνται, να αναπτύσσουν δεξιότητες για σχέσεις και να μαθαίνουν να αναγνωρίζουν και να σέβονται τα όρια», αναφέρεται στην έκθεση.